Ch 12 Curve Fitting

UTG

CPE 332

Computer Engineering

Mathematics II

Mathematics II

Chapter 12

Curve Fitting

(Last)

Curve Fitting

• บ่อยๆครั้ง เราได ้ข ้อมูลจากการวัดในสนาม ซึ่งมี

ลักษณะเป็นจุด และเราจะต ้องการหา Function

ทางคณิตศาสตร์เพื่อเชื่อมต่อจุดเหล่านี้

• Function ง่ายๆที่ใช ้กันคือ Polynomial ที่

Degree ต่างๆ

• Function ที่สลับซับซ ้อนขึ้นได ้แก่ Cosine

Function

• กรรมวิธีเหล่านี้ เพื่อที่จะหาค่าของ Function ที่อยู่

ระหว่างจุดที่เราวัด ซึ่งเราเรียก Interpolation

Interpolation

y

x

Linear Interpolation

y

x

Second Degree Piecewise

Interpolation

y

x

Third Degree Piecewise

Interpolation

y

x

Higher Order Degree

• ไม่นิยมใช ้ เพราะจะเกิดการ Oscillate ได ้

• Function ที่รอยต่อของ Polynomial จะไม่

ต่อเนื่อง

• N Degree จะใช ้ N+1 จุดสําหรับหาค่าของ

Function

Spline Interpolation

• เป็นการใช ้ Polynomial Degree ตํ่าๆ ที่นิยมคือ Third Degree หรือ Cube

– เรียก Cubic Spline

• Cubic Spline จะหา Polynomial จากทีละ 2 จุด(ไม่ใช่ 4) แต่บังคับให ้รอยต่อระหว่างแต่ละ Polynomial มีความ

ต่อเนื่อง โดยกําหนดให ้ Polynomial ที่ต่อกันมี First Derivative และ Second Derivative เท่ากัน

• 2 จุดได ้ 2 สมการ บวกกับอีกสองสมการของ First และ

Second Derivative เป็น 4 สมการ 4 Unknown

• ที่ปลายและหัวจะสมมุติ First Derivative จากสมการ

เส ้นตรง และสมมุติ Second Derivative เท่ากับศูนย์ วิธีนี้

เราเรียก Natural Spline

• เป็นวิธีที่นิยมมากกว่า

Spline Interpolation

y

x

การคํานวณ Cubic Spline

Interpolation (1)

• พิจารณาจากจุดของตัวอย่าง ( x , y ); i i

i

= ,...,

0

n −1

• เราต ้องการลาก Curve ผ่านจุดเหล่านี้ โดยใช ้

Third Degree Polynomial

2

3

y = f ( x) = a + a x + a x + a x 3

0

1

2

3

– มี 4 Unknown ที่ต ้องหา ดังนั้นต ้องสร ้าง 4 สมการ และ

ใช ้ 4 จุดของ Data ในการแก ้

– ผลคือ 3rd Degree Polynomial จะลากผ่านทีละ 4 จุด

ดังนั้นจะมีรอยต่อทุกๆ 4 จุด ที่ไม่ราบเรียบ เนื่องจากแต่

ละ 4 จุดจะใช ้ Polynomial คนละตัวกัน

– Polynomial ที่ต่อกันจะใช ้จุดร่วมกันที่รอยต่อ

การคํานวณ Cubic Spline

Interpolation (2)

• Example: กําหนด Data 7 จุดดังนี้

– Yi = [2 0 3 4 5 3 1]; Xi = [0 1 2 3 4 5 6]

• จงคํานวณ Third Degree Polynomial ที่

จะ Fit Data เหล่านี้

การคํานวณ Cubic Spline

Interpolation (3)

y0

y

1

เราต้องใช้ Cubic Polynomial 2 ต ัวแรก Fit 4 จุดแรก

ต ัวที่ 2 Fit 4 จุดถ ัดไป โดยจุดที่ 4 เป็นจุดร่วม

Cubic Spline Int.(4)

• Polynomial ตัวแรก คํานวณได ้ดังนี้

2 = a 0

0 = a + a + a + a

0

1

2

3

3 = a + 2 a + 4 a + 8 a 0

1

2

3

4 = a + 3 a + 9 a + 27 a 0

1

2

3

• แก ้สมการได ้

2

3

y = 2 − 6.8333 x + 6 x −1.1667 x 0

Cubic Spline Int.(5)

• Polynomial ตัวที่สอง คํานวณได ้ดังนี้

4 = a + 3 a + 9 a + 27 a 0

1

2

3

5 = a + 4 a +16 a + 64 a 0

1

2

3

3 = a + 5 a + 25 a +125 a 0

1

2

3

1 = a + 6 a + 36 a + 216 a 0

1

2

3

• แก ้สมการได ้

2

3

y = −47 + 35 x − 7.5 x + 0.5 x 1

Cubic Spline Int.(6)

Cubic Spline Int.(7)

Cubic Spline Int.(8)

Cubic Spline Int.(9)

• สิ่งที่เราต ้องการคือทําให ้รอยต่อราบเรียบ

– โดยการกําหนดให ้ค่า First Derivative ที่ปลายของ

Polynomial ตัวแรก เท่ากับค่า First Derivative ที่จุด

ต ้นของ Polynomial ตัวที่ 2

– อีกนัยหนึ่ง คือบังคับให ้ค่า First Derivative ที่จุดร่วม

ของสอง Polynomial ที่มาต่อกัน มีค่าเท่ากัน

– ในกรณีเราสามารถสร ้าง 4 สมการ เพื่อหา 4

Coefficient ได ้จากเพียงค่าของ Function ที่สองจุด

และค่าของ First Derivative ที่สองจุดนั้น (4 ค่า รวม)

• กล่าวคือ แต่ละช่วงของ Data (ระหว่างสองจุด) เราจะคํานวณ

Third Degree Polynomial หนึ่งตัว

Cubic Spline Int.(10)

• พิจารณาจาก Data n จุดของ xii=1,..,n คือ yi;

i=1,..,n เราต ้องการหา Cubic Polynomial,

Si(x) ทั้งหมด n-1 function เพื่อทําการ

Interpolate ค่าระหว่างจุด ในแต่ละช่วงของ

สองจุดที่ติดกัน

s ( x); x x < x 1

1

2

 s ( x); x x < x S( x)

2

2

3

= 

s ( x);

n

xn− ≤ x < x

1

1

n

s ( x)

i

= a ( x

i

x )3

i

+ b ( x

i

x )2

i

+ c ( x

i

x ) i + d ; i

i

= ,

1 ,...,

2

n −1

Cubic Spline Int.(11)

• สมการ Polynomial ที่ใช ้เป็นแค่การเปลี่ยน

Variable โดยเลื่อน (Delay) สมการจากจุด

xi ให ้มาอยู่ที่ตําแหน่ง ศูนย์

• ค่า First และ Second Derivative ของ

แต่ละ Polynomial สามารถแสดงได ้ดังนี้

s ( x) = a ( x x )3 + b ( x x )2 + c ( x x ) + d i

i

i

i

i

i

i

i

s '( x) = a

3 ( x x )2 + b

2 ( x x ) + c

i

i

i

i

i

i

s ''( x) = 6 a ( x x ) + b 2

i

i

i

i

Cubic Spline Int.(12)

• ถ ้าจุด xi เป็นจุดร่วมระหว่างสอง

Polynomial กล่าวคือ

s ( x ) = s ( x ) i

i

i 1

i

• และที่จุด xi เราจะได ้ค่าของ Function คือ

y = s ( x ) = a ( x x )3 + b ( x x )2 + c ( x x ) + d i

i

i

i

i

i

i

i

i

i

i

i

i

y = d

i

i

• นอกจากนี้ เราได ้(สมมุติว่าแต่ละจุดสุ่ม

ตัวอย่างด ้วยระยะห่างเท่ากัน)

y = s ( x )

= a ( x

x )3

+ b ( x

x )2

+ c ( x

x )

+ d

i

i 1

i

i 1

i

i 1

i 1

i

i 1

i 1

i

i 1

i 1

y = d = a h 3

+ b h 2

+ c h

+ d ; h

= x x ; i

=

,...,

3

,

2

n

i

i

i 1

i 1

i 1

i 1

i

i 1

Cubic Spline Int.(13)

• เราสร ้างสมการจากการกําหนด First

Derivative ของจุดต่อให ้เท่ากัน

s '( x ) = s '( x )

ดังนั้น เราได

i

i

i 1

i

s '

i

( x) = 3 a ( x

i

x )2

i

+ 2 b ( x

i

x ) i + ci

s ' ( x )

i

i

= ci = s '( x )

i

i

= 3

2

aih + 2 bih + c ; i

i =

,...,

3

,

2

n −1

1

1

1

1

• นอกจากนี้แล ้ว ค่า Second Derivative

จะต ้องต่อเนื่องกันตลอดช่วง

s ''( x )

i

i+

= s ''( x );

i+

i+

i = ,

1 ,...,

2

n −1

1

1

1

Cubic Spline Int.(14)

• แต่ค่า s ''( x) = 6 a ( x x ) + b 2

i

i

i

i

• ดังนั้น

s ''( x )

b

i

i

= 2 i

• และ

s ''( x )

2 b

i 1

+

i

=

1

+

i 1

+

s ''( x )

+

= 6 a ( x + − x ) + b 2

= 6 a h + b

2

i

i 1

i

i 1

i

i

i

i

• จาก

s ''( x )

i

i +

= s ''( x );

i +

i +

i = ,

1 ,...,

2

n −1

1

1

1

• เราได ้

b

2 + = 6 a h + b

2

i 1

i

i

Cubic Spline Int.(15)

• เพื่อให ้สมการดูง่าย เรากําหนด

M = s ''( x )

i

i

i

• ดังนั้น

b = M / 2

i

i

• และที่ได ้ก่อนหน้านี้ d = y

i

i

• ส่วน ai และ ci สามารถเขียนใหม่ได ้เป็น

M +1 − M

b

2 +1 = 6 a h + b

2  a

i

i

=

i

i

i

i

6 h

d = a h 3

2

−1

+ b h

−1

+ c h

−1 + d

i

i

i

i

i −1

3

2

y +1 − y

M +1 + 2 M

d +1 = a h + b h + c h + d c i

i

i

i

=

− 

h

i

i

i

i

i

i

h

6

Cubic Spline Int.(16)

• เราสรุปสูตรในการคํานวณดังนี้

M +1 − M

i

i

a =

i

6 h

Mi

b =

i

2

y +1 − y

M +1 + 2 M

i

i

i

i

c =

− 

h

i

h

6

d = y

i

i

• เมื่อเขียนในรูปของ Matrix เราได ้

Cubic Spline Int.(17)

• จาก

s '( x

i

i+ ) = 3

2

a h

i

+ 2 b h

i

+ ci = s '( x )

i+

i+

= c

1

1

1

i 1

+

Mi+ − Mi

Mi

yi+ − yi Mi+ + Mi

yi+ − yi

+

M i+ + Mi

1

2

2

2

3

+

h

h

h

h

+ 2

1

1

2

1

2

1

+

− 

 =

− 

6 h

 2 

h

6

h

6

h ( Mi

yi yi+ +

+

y

M

i

i+ + M i+

=

+

1

2 )

2

4

1

2

6

h

M i +

6  yi − 2 yi+ + yi

4

1

+2

M i+ + Mi+ = 

;

i = ,

1

,..,

3

,

2

n − 2

1

2

h

h

• สามารถเขียนเป็นสมการ Matrix ได ้ดังนี้

Cubic Spline Int.(18)

M 1 

1 4 1 0  0 0 0 0 M

2

2

y 1 − y 2 + y 3

0

1

4

1  0 0 0 0  M

2

3

y 2 − y 3 + y 4 

0 0 1 4  0 0 0 0 M

2

4 

y 3 − y 4 + y

6 

5

        

=

2 

0 0 0 0  4 1 0 0

h

M

y

2 y

y

n−3

n −4 −

n −3 +

n −2 

0 0 0 0  1 4 1 0 M

y

2 y

y

n −2

n−3 −

n −2 +

n −1 

0 0 0 0  0 1 4 1 M

y

2 y

y

n −1 

n −2 −

n −1 +

n

Mn

• ระบบประกอบไปด ้วย n-2 สมการและ n unknown

ดังนั้นเราต ้องการอีก สอง Condition เพื่อที่

สามารถจะแก ้สมการได ้

– สอง Condition สามารถเลือกได ้หลายแบบ ทําให ้เกิด

Variation ของ Cubic Spline Interpolation หลาย

วิธี

Cubic Spline Int.(19)

• ในที่นี้จะกล่าวถึง Spline สามแบบ ตาม

สอง Condition ที่กําหนดเพิ่มเติม

– Natural Spline

• โดยการกําหนด M1=Mn=0

– Parabolic Runout Spline

• โดยการกําหนด M1=M2 และ Mn=Mn-1

– Cubic Runout Spline

• โดยการใช ้ M1=2M2-M3 และ Mn=2Mn-1-Mn-2

• ในที่นี้จะกล่าวรายละเอียดเฉพาะ Natural

Spline

Cubic Spline Int.(20)

• Natural Spline

– เมื่อให ้ M1=Mn=0 Matrix จะลดรูปเหลือ n-2

สมการ และ n-2 Unknown ดังนี้

4 1 0  0 0 0 M

2

2 

y 1 − y 2 + y 3 



1

4

1  0 0 0

M

y

2

3

2 −

y 3 + y



4

0 1 4  0 0 0 M

y 2

4

3 −

y 4 + y

5



6 

         =

2 

h

0 0 0  4 1 0 M

y

2 y

y

n−3

n−4 −

n−3 +



n−2 

0 0 0  1 4 1 M

y

2 y

y

n−2 

n−3 −

n−2 +

n−1 



0 0 0  0 1 4 M

y

2 y

y

n−1 

n−2 −

n−1 +

n

– เมื่อเราแก ้สมการได ้ค่า Mi เราสามารถคํานวณ

ค่า Coefficient ของแต่ละ Polynomial ได ้

Cubic Spline Int.(21)

• สังเกตุว่า Coefficient Matrix ของระบบมีค่าใน

ส่วน Diagonal ที่เป็นค่าคงที่ ซึ่ง Matrix นี้เป็น

Matrix พิเศษ เรียก Toeplitz Matrix

– Toeplitz Matrix สามารถแก ้ปัญหาได ้ โดยใช ้ O(n2) Computation Time แทนที่จะเป็น O(n3)

• Algorithm ที่ใช ้คือ Levinson Algorithm

– Toeplitz Matrix สามารถทํา LU Decomposition

โดยใช ้ O(n2) เช่นเดียวกัน

• รายละเอียดของคุณสมบัติพิเศษของ Matrix นี้

และ Levinson Algorithm อยู่นอกขอบเขตของ

วิชานี้ ผู ้สนใจสามารถศึกษาเพิ่มเติมได ้จากตํารา

ด ้าน Linear Algebra และ Numerical Method

Example: Natural Spline

• จากตัวอย่างเดิม เราจะใช ้ Spline มาทําการ Fit Data ในกรณีนี้ n=7, h = 1, M0=M7=0

– Yi = [2 0 3 4 5 3 1]; Xi = [0 1 2 3 4 5 6]

• เราแก ้สมการ Matrix ดังนี้

4 1 0 0 0 M 2

2 − 2⋅0 + 

3

 5 



1

4

1

0

0

M

0

3

− 2⋅3+ 4



 2

0 1 4 1 0 M

4

= 63− 2⋅4 + 5 = 6 0 



0 0 1 4 1 M 5 

4 − 2⋅5 + 

3

− 3

0 0 0 1 4 M

5 2 3 1

 0 

 6 

 − ⋅ + 

• และได ้คําตอบคือ

T

M = [ ,

0

.

8

,

9923 − .

5

,

9692 2

,

8846

.

5

1

,

5692

.

,

3923

.

0]

T

M = [ ,

0

.

8

,

9923 5

,

9692

.

.

2

,

8846 − .

5

.

1

,

5692

,

3923

]

0

• ดังนั้น Coefficient ของ Cubic ทั้ง 6 จะ

เป็น

M i M

1

ai =

+

i = 1

[ .4987,−2.

1

,

4936 .

,

4756 −1.

1

,

4090 .

,

1603 −.

]

2321

6 h

b

M

i =

/ 2

i

= [ ,

0 .

4

,

4962 − .

2

.

1

,

9846

,

4423 − .

2

0

,

7846 .

]

6962

yi+ − yi Mi+ + 2 Mi

1

1

ci =

− 

h

h

6

= [−3.4987,0.

,

9974 2.

,

5090 0.9667,−0.

,

3756 −2.

]

4641

d

y

i =

i = [

,

3

,

0

,

2

]

3

,

5

,

4

Polynomial Coefficient Matrix

>> p=[a b c d]

p =

1.4987 0 -3.4987 2.0000

-2.4936 4.4962 0.9974 0

1.4756 -2.9846 2.5090 3.0000

-1.4090 1.4423 0.9667 4.0000

1.1603 -2.7846 -0.3756 5.0000

-0.2321 0.6962 -2.4641 3.0000

ต่อไปเราจะลอง Plot แต่ละ Polynomial ในแต่ละช่วง

ท ั้งหมด 6 Polynomial และ 6 ช่วง

Natural Spline Interpolation

Natural Spline Interpolation = R;

First Der = G; Second Der = B

Natural Spline Interpolation = R;

First D = G; Second D = B vs 6th D Poly = K

ปกติแนวโน ้มของ Polynomial ที่มี Degree สูงจะเกิด Overshoot แต่ Spline จะให ้ Curve ที่ราบเรียบกว่า และใกล ้เคียงความจริง

y = 0.0347 6

x − 0 6375

.

5

x + .

4 4931 4

x

.

15 3125 3

x +

.

25 4722 2

x

.

16 05 x + 2

Regression

• บางครั้ง Data ที่เราเก็บได ้ กระจาย และการ

ทํา Interpolation ด ้วย Polynomial จะไม่

เหมาะสม

• การกระจายของ Data อาจจะเกิดจากความ

ไม่แน่นอนในการวัด หรือเป็นลักษณะ

Random

• อาจจะเกิดจาก Noise ในการวัด

– การ Fit ด ้วย Polynomial หรือแม ้แต่ Spline

จะให ้คําตอบที่ไม่ตรงกับความจริง

Regression: Data with Noise

Y

X

Polynomial Fit Noise Data

Y

X

Ordinary Simple Linear

Least-Squares Regression

• ในการนี้ การประมาณค่าโดยใช ้ Function ง่ายๆ เช่น

เส ้นตรง หรือ Exponential จะเหมาะสมกว่า

– โดยเฉพาะถ ้าเรารู ้พฤติกรรมของระบบอยู่บ ้าง และคาดหวังว่า Data ที่ได ้ควรจะมีลักษณะอย่างไร

• การหาสมการที่จะ Fit ที่สุด โดยมีค่า Error ตํ่าสุด เรา

เรียกเป็นการทํา Regression

• กรณีของสมการเส ้นตรง (สําหรับตัวแปรเดียว)เราเรียก

Linear Regression

– ที่ถูกควรเรียก Simple Linear Regression ใช ้สําหรับตัวแปรเดียว

จะเป็นสมการเส ้นตรงในสองมิติ

• เนื่องจากมี Multiple Linear Regression ด ้วยสําหรับกรณีหลายตัว

แปร ซึ่งผลจะเป็น Linear Equation ในหลายมิติ

– สมการเส ้นตรงคือ y=ax+b (บางตําราใช ้ y = a + bx ซึ่งในกรณีนี้

ต ้องสลับค่า a และ b ในการคํานวณที่จะกล่าวต่อไป)

– Parameter 2 ตัวที่ต ้องหาคือ a = slope และ b = y-intercept

Ordinary Simple Linear

Least Square Regression

• สมการที่ Fit ที่สุดคือให ้ Error รวมตํ่าสุด

เรามักจะใช ้วิธีของ Least-Square เรียก

Ordinary Least Square Regression

(OLS) (หรือ Linear Least Square)

– ผลรวมของ Error ยกกําลังสองของแต่ละจุด

ของ Data เทียบกับเส ้นตรงที่ใช ้ มีค่าตํ่าสุด

• Linear Regression ใช ้กันมากในทางสถิติ

เพื่อหาความสัมพันธ์แบบเส ้นตรงของ

Random Variable สองตัว

• Linear Regression ประเภทอื่นๆก็มีใช ้กัน

อยู่ แต่ OLS จะนิยมที่สุด

Linear Least-Squares

Regression

Y

Error

X

Ordinary Linear Least

Square Regression (OLS)

• ค่า a และ b หาได ้จากสมการ Summation ของ

Error ยกกําลังสอง ของทุกจุด

– ค่าที่ตํ่าสุดหาได ้จากการหาค่า Derivative ของสมการ

และตั้งให ้เท่ากับ 0 (จุด Minima)

• ทั้งสอง Unknown คือ a และ b หาได ้จากสมการ

Derivative สองสมการที่ตั้งให ้เท่ากับ 0 ดังนี้

– df(a,b)/da = 0

– df(a,b)/db = 0

– f(a,b) คือ Sum of Square Error Function

• อีกค่าที่ใช ้ในทางสถิติคือค่า r = correlation coefficient เป็นตัวบอกว่าเส ้นตรงที่ใช ้มัน Fit ได ้ดีเพียงไร, r จะมีค่าระหว่าง [-1,1]

Linear Least-Squares

Regression

e

y

ax

b i

n

i =

i

i

; = ,

1 ,...,

2

Regression line

n

n

f ( a, b) =  2

e

y

ax

b

(x

i

= ( i i − 2)

i,yi)

i=1

i=1

yi

n

ei

df

axi+b

= −2[( y ax b x

i

i

) ]

i

= 0

da

i=1

n

df = −2( y ax b

i

i

) = 0

x

db

i

i=1

nx y

x

y

i

i −  i

a =

i

สมมุติเราได้ Data Pair (xi,yi);

n 2

x

x

i − (

2

)

i

i = 1,2,…,n ท ั้งหมด n จุด

b = y ax

Variable X และ Y อาจจะเป็น

nx y

x

y

i

i −  i

ได้ท ั้ง Continuous และ

r =

i

Discrete

n 2

x

x

n

y

y

i − (

2

)

i

 2 i −( 2)

i

n

n

− 2[( y ax b x

− 2[( y ax b)] = 0

i

i

) ]

i

= 0

i

i

i 1

=

i 1

=

n

n

n

n

n

2

y x a x b x

 −  − =

i

i

i −  i =

0

(1)

y

a

x

nb

0

i

i

i 1

=

i 1

=

i 1

=

i 1

=

i 1

=

r

eplace b in

(1)

1 n

1 n

b

n

n

n

n

n

=

y a x = Y aX

1

1

2

n

i

y x a x

y

a

x

x

i

i

i −  i −  

i

n

i

1

i

i = 0

=

i 1

=

n

n

i 1

=

i 1

=

i 1=

i 1

=

i 1=

2

n

1 n

n

n

1

n

2

y x

y

x

a

x

x

i

i

ii =

n

 i −  

i

n

i 1

=

i 1

=

i 1

=

i 1

=

i 1

=

 

2

n

n

n

n

n

2

ny x

y

x

a n

x

x

i

i −  i i =

  i −  

i

i 1

=

i 1

=

i 1

=

i 1

=

i 1

=

 

n

n

n

n

x y

x

y

i

i −  i i

i 1

=

i 1

=

i 1

a =

=

2

n

n

2

nx

x

i −  

i

i 1

=

i 1= 

R, r : Correlation Coefficient

ส่วน Correlation Coefficient คือ

Pearson Product-Moment Correlation Coefficient นิยามว่าเท่าก ับอ ัตราส่วนของค่า Covariance ต่อผลคูณของค่า

Standard Deviation ของท ั้งสอง Variable (ของต ัวอย่าง) และ สามารถแสดงได้ว่ามีค่า

r = CXY

S S

X

Y

nx y

x

y

i

i −  i

r =

i

n 2

x

x

n

y

y

i − (

2

)

i

 2 i − ( 2)

i

r = 1 หรือ -1 แสดงว่ามีความสัมพันธ์แบบเส ้นตรง

อย่างสมบูรณ์ (ในเชิงบวก หรือในเชิงลบ)

ถ ้า r เป็นศูนย์แสดงว่าไม่มีความสัมพันธ์กันเลย

Nonlinear Regression

• ในกรณีที่เส ้นตรงไม่เหมาะสมที่จะนํามาใช ้

เราสามารถจะใช ้ Function อื่นมาทํา

Regression เช่น

– Exponential Model

– Power Equation

– Saturation-Growth-Rate Equation

– Polynomial Regression

• รายละเอียดอยู่นอกเหนือวิชานี้

Example

• 1. จากการเก็บข ้อมูลตัวอย่าง วิชา CPE 332 ระหว่าง

คะแนน ที่นักศึกษาได ้ กับจํานวนรวมเป็นชั่วโมงที่

นักศึกษาขาดเรียน หรือมาสาย ได ้ข ้อมูลดังตาราง

ข ้างล่าง

Data

Hour

Grade

Data

Hour

Grade

1 5 72 6 10 40

2 8 51 7 7 68

3 2 86 8 6 63

4 6 75 9 12 46

5 4 88 10 8 65

– จงใช ้ OLS Regression แสดงสัมพันธ์ระหว่างตัวแปรทั้ง

สอง ทําการ Plot Scatter Diagram และเส ้นตรงที่ได ้

จากนั้นให ้หาค่า Correlation Coefficient

Example

Example

10

10

1

n =

;

10  x

X

x

i =

;

68

=

i = .68

i 1

10

=

i 1

=

10

1 10

y

Y

y

i =

;

654

=

i = .

65 4

i 1

10

=

i 1

=

10

10

10

x y

x

y

i

i =

;

4068

2

i = ;

538

2

i =

;

45084

i 1

=

i 1

=

i 1

=

n

n

n

n

x y

x

y

i

i −  i i

10

i=

i=

i=

× 4068 − 68×654

1

1

1

a =

=

= − 0159

.

5

2

n

n

10× 538 − 682

2

nx

x

i −  

i

i 1

=

i 1= 

b = Y a X =

.

65 4 − (− .

5

)

0159 × .

6 8 =

.

99 5079

nx y

x

y

i

i −  i

r =

i

2

nx

x

n

y

y

i − (

)2

2

i

i −( )2

i

10 × 4068 − 68× 654

=

= − 9069

.

0

10 × 538 − 682 10× 45084 − 6542

y=-5.0159x + 99.5079

r = -0.9069

End of Chapter 12

• Download

• Homework 12 ส่งก่อนวันพุธหน ้าที่ 3 ธ.ค.

ก่อน 12.00 น. (ส่งที่สาขา ใส่กล่อง ห ้อง 5-

310)

Course Ends

• Prepare For Exam

– ข ้อสอบมี 9 ข ้อ ทําทุกข ้อ (นําเครื่องคิดเลขมาด ้วย)

– เรื่องก่อน Midterm จะออก 3 ข ้อ จาก 6 บทแรก + 6

ข ้อหลัง MT

• 1. Function Approximation (1 ข ้อ)

– Taylor Series/McLauren Series

• 2. Roots of Function (1 ข ้อ)

– Bisection

– Newton-Ralphson

• 3. Linear Equations (1 ข ้อ) เรื่องใดเรื่องหนึ่ง

– Gauss Elimination

– Gauss Jordan (Including Matrix Inverse)

– Gauss Seidel

– LU Decomposition (Crout Decomposition)

Course Ends

• Prepare For Exam

• 4. Numerical Integration (1 ข ้อ) ไม่ออก Finite Difference

– Trapezoidal Rule

– Simpson 1/3 Rule

– Richardson Extrapolation

• 5. ODE (1 ข ้อ)

– Classical Forth Order RK Method เรื่องเดียว

• 6. Curve Fitting (1 ข ้อ)

– Natural Spline

– OLS Regression

Formulas

ดูใน MT+ต่อไปนี้

END OF CPE 332 T1-57

Minimum 40% เพื่อที่จะผ่านวิชานี้

A จะต้องได้ 80% ขึ้นไป

previous page start